Métodos de Predictivos (Clasificación o Aprendizaje-Supervisado)
Se necesita cargar las siguientes librerías
Muestra la distribución de la variable a predecir
equilibrio.variable.predecir<-function(datos,variable.predecir,ylab="Cantidad de individuos",xlab = "",
main=paste("Distribución de la variable",variable.predecir),
col = NA) {
gg_color <- function (n) {
hues <- seq(15, 375, length = n + 1)
hcl(h = hues, l = 65, c = 100)[1:n]
}
if(missing(variable.predecir) | !(variable.predecir %in% colnames(datos))){
stop("variable.predecir tiene que ser ingresada y ser un nombre de columna", call. = FALSE )
}
if(is.character(datos[,variable.predecir]) | is.factor(datos[,variable.predecir])){
if(length(col) == 0 || is.na(col)){
col <- gg_color(length(unique(datos[,variable.predecir])))
}else{
col <- rep(col,length(unique(datos[,variable.predecir])))
}
ggplot(data = datos, mapping = aes_string(x = variable.predecir, fill = variable.predecir)) +
geom_bar() +
scale_fill_manual(values = col, name = variable.predecir) +
labs(x = xlab, y = ylab, title = main) +
theme_minimal() +
theme(legend.position = "bottom")
}else{
stop("La variable a predecir tienen que ser de tipo factor o character", call. = FALSE )
}
}Muestra la distribución de una variable numérica según la variable a predecir
poder.predictivo.numerica<-function(datos,variable.predecir,variable.comparar,ylab="",xlab="",
main=paste("Densidad de la variable",variable.comparar,'según',variable.predecir),
col=NA){
gg_color <- function (n) {
hues <- seq(15, 375, length = n + 1)
hcl(h = hues, l = 65, c = 100)[1:n]
}
if(missing(variable.predecir) | !(variable.predecir %in% colnames(datos))){
stop("variable.predecir tiene que ser ingresada y ser un nombre de columna", call. = FALSE )
}
if(missing(variable.comparar) | !(variable.comparar %in% colnames(datos)) | !is.numeric(datos[,variable.comparar])){
stop("variable.comparar tiene que ser ingresada y ser un nombre de columna numérica", call. = FALSE )
}
if(is.character(datos[,variable.predecir]) | is.factor(datos[,variable.predecir])){
if(length(col) == 0 || is.na(col)){
col <- gg_color(length(unique(datos[,variable.predecir])))
}else{
col <- rep(col,length(unique(datos[,variable.predecir])))
}
ggplot(data = datos, aes_string(variable.comparar, fill = variable.predecir)) +
geom_density(alpha = .7, color = NA) +
scale_fill_manual(values = col) +
labs(title = main , y = ylab, x = xlab ,fill = variable.predecir) +
theme_minimal() +
theme(legend.position = 'bottom',
legend.title = element_blank(),
text = element_text(size = 15))
}else{
stop("La variable a predecir tienen que ser de tipo factor o character", call. = FALSE )
}
}Muestra la distribución de una variable categórica según la variable a predecir
poder.predictivo.categorica<-function(datos,variable.predecir,variable.comparar,ylab="",xlab="",
main=paste("Densidad de la variable",variable.comparar,'según',variable.predecir),
col=NA){
gg_color <- function (n) {
hues <- seq(15, 375, length = n + 1)
hcl(h = hues, l = 65, c = 100)[1:n]
}
if(missing(variable.predecir) | !(variable.predecir %in% colnames(datos))){
stop("variable.predecir tiene que ser ingresada y ser un nombre de columna", call. = FALSE )
}
if(missing(variable.comparar) | !(variable.comparar %in% colnames(datos)) |
!(is.factor(datos[,variable.comparar]) | is.character(datos[,variable.comparar])) ){
stop("variable.comparar tiene que ser ingresada y ser un nombre de columna categórica", call. = FALSE )
}
if(is.character(datos[,variable.predecir]) | is.factor(datos[,variable.predecir])){
if(length(col) == 0 || is.na(col)){
col <- gg_color(length(unique(datos[,variable.predecir])))
}else{
col <- rep(col,length(unique(datos[,variable.predecir])))
}
datos2 <- datos %>%
dplyr::group_by_(variable.comparar, variable.predecir) %>%
dplyr::summarise(count = n())
if(variable.comparar != variable.predecir){
datos2 <- datos2 %>% dplyr::group_by_(variable.comparar)
}
datos2 <- datos2 %>% dplyr::mutate(prop = round(count/sum(count),4))
ggplot(data = datos2, mapping = aes_string(x = variable.comparar, y = "prop", fill = variable.predecir)) +
geom_col(position = "fill") +
geom_text(aes(label = glue("{percent(prop)} ({count})")), position = position_stack(vjust = .5), color = "white") +
scale_y_continuous(label = percent) +
labs(y = xlab, x = ylab, title = main) +
scale_fill_manual(values = col, name = variable.predecir) +
theme(legend.position = "bottom")+
coord_flip()
}else{
stop("La variable a predecir tienen que ser de tipo factor o character", call. = FALSE )
}
}Índices para matrices NxN
indices.general <- function(MC) {
precision.global <- sum(diag(MC))/sum(MC)
error.global <- 1 - precision.global
precision.categoria <- diag(MC)/rowSums(MC)
res <- list(matriz.confusion = MC, precision.global = precision.global, error.global = error.global,
precision.categoria = precision.categoria)
names(res) <- c("Matriz de Confusión", "Precisión Global", "Error Global",
"Precisión por categoría")
return(res)
}'data.frame': 150 obs. of 5 variables:
$ s.largo: num 5.1 4.9 4.7 4.6 5 5.4 4.6 5 4.4 4.9 ...
$ s.ancho: num 3.5 3 3.2 3.1 3.6 3.9 3.4 3.4 2.9 3.1 ...
$ p.largo: num 1.4 1.4 1.3 1.5 1.4 1.7 1.4 1.5 1.4 1.5 ...
$ p.ancho: num 0.2 0.2 0.2 0.2 0.2 0.4 0.3 0.2 0.2 0.1 ...
$ tipo : Factor w/ 3 levels "setosa","versicolor",..: 1 1 1 1 1 1 1 1 1 1 ...
Vamos a generar al azar una tabla de testing de tamaño 50 y una tabla de aprendizaje de tamaño 100.
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.kknn(tipo~.,data = taprendizaje, kmax = 9)
modelo
Call:
train.kknn(formula = tipo ~ ., data = taprendizaje, kmax = 9)
Type of response variable: nominal
Minimal misclassification: 0.04
Best kernel: optimal
Best k: 5
Se genera la predicción
[1] setosa versicolor setosa versicolor virginica setosa
[7] setosa versicolor versicolor virginica virginica setosa
[13] versicolor setosa virginica setosa versicolor setosa
[19] setosa versicolor setosa setosa setosa setosa
[25] versicolor virginica versicolor virginica virginica versicolor
[31] setosa versicolor setosa versicolor setosa versicolor
[37] setosa setosa virginica setosa virginica versicolor
[43] versicolor virginica versicolor virginica virginica virginica
[49] setosa virginica
Levels: setosa versicolor virginica
Se genera la matriz de confusión
prediccion
setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Índices de calidad de la predicción
$`Matriz de Confusión`
prediccion
setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
$`Precisión Global`
[1] 0.96
$`Error Global`
[1] 0.04
$`Precisión por categoría`
setosa versicolor virginica
1.0000000 0.9375000 0.9285714
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.knn(tipo~.,data = taprendizaje, kmax = 9)
modelo
Call:
kknn::train.kknn(formula = tipo ~ ., data = taprendizaje, kmax = 9)
Type of response variable: nominal
Minimal misclassification: 0.04
Best kernel: optimal
Best k: 5
Se genera la predicción
[1] setosa versicolor setosa versicolor virginica setosa
[7] setosa versicolor versicolor virginica virginica setosa
[13] versicolor setosa virginica setosa versicolor setosa
[19] setosa versicolor setosa setosa setosa setosa
[25] versicolor virginica versicolor virginica virginica versicolor
[31] setosa versicolor setosa versicolor setosa versicolor
[37] setosa setosa virginica setosa virginica versicolor
[43] versicolor virginica versicolor virginica virginica virginica
[49] setosa virginica
Levels: setosa versicolor virginica
Se genera la matriz de confusión
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Índices de calidad de la predicción
Confusion Matrix:
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Overall Accuracy: 0.9600
Overall Error: 0.0400
Category Accuracy:
setosa versicolor virginica
1.000000 0.937500 0.928571
Podemos omitir crear la matriz de confusión
Confusion Matrix:
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Overall Accuracy: 0.9600
Overall Error: 0.0400
Category Accuracy:
setosa versicolor virginica
1.000000 0.937500 0.928571
Utilizando los datos que previamente cargamos
Podemos visualizar la distribución de las variables numéricas según la variable a predecir.
Utilizando los mismo datos para prueba (ttesting) y aprendizaje (taprendizaje) que creamos anteriormente.
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.kknn(tipo~p.largo+p.ancho, data = taprendizaje, kmax = 9)
modelo
Call:
train.kknn(formula = tipo ~ p.largo + p.ancho, data = taprendizaje, kmax = 9)
Type of response variable: nominal
Minimal misclassification: 0.03
Best kernel: optimal
Best k: 1
Se genera la predicción
# Type="class" hace que el modelo prediga clases y no probabilidades
prediccion <- predict(modelo, ttesting[,-5])
prediccion [1] setosa versicolor setosa versicolor virginica setosa
[7] setosa versicolor versicolor virginica virginica setosa
[13] versicolor setosa virginica setosa versicolor setosa
[19] setosa versicolor setosa setosa setosa setosa
[25] versicolor virginica versicolor virginica virginica versicolor
[31] setosa versicolor setosa versicolor setosa versicolor
[37] setosa setosa virginica setosa virginica versicolor
[43] versicolor virginica versicolor virginica virginica virginica
[49] setosa virginica
Levels: setosa versicolor virginica
Se genera la matriz de confusión
prediccion
setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Índices de calidad de la predicción
$`Matriz de Confusión`
prediccion
setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
$`Precisión Global`
[1] 0.96
$`Error Global`
[1] 0.04
$`Precisión por categoría`
setosa versicolor virginica
1.0000000 0.9375000 0.9285714
Se cargan las librerías
Se genera el modelo
Call:
kknn::train.kknn(formula = tipo ~ p.largo + p.ancho, data = taprendizaje, kmax = 9)
Type of response variable: nominal
Minimal misclassification: 0.03
Best kernel: optimal
Best k: 1
Se genera la predicción
[1] setosa versicolor setosa versicolor virginica setosa
[7] setosa versicolor versicolor virginica virginica setosa
[13] versicolor setosa virginica setosa versicolor setosa
[19] setosa versicolor setosa setosa setosa setosa
[25] versicolor virginica versicolor virginica virginica versicolor
[31] setosa versicolor setosa versicolor setosa versicolor
[37] setosa setosa virginica setosa virginica versicolor
[43] versicolor virginica versicolor virginica virginica virginica
[49] setosa virginica
Levels: setosa versicolor virginica
Se genera la matriz de confusión
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Índices de calidad de la predicción
Confusion Matrix:
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Overall Accuracy: 0.9600
Overall Error: 0.0400
Category Accuracy:
setosa versicolor virginica
1.000000 0.937500 0.928571
Podemos omitir crear la matriz de confusión
Confusion Matrix:
prediction
real setosa versicolor virginica
setosa 20 0 0
versicolor 0 15 1
virginica 0 1 13
Overall Accuracy: 0.9600
Overall Error: 0.0400
Category Accuracy:
setosa versicolor virginica
1.000000 0.937500 0.928571
setwd("~/Desktop/Datos/")
datos<-read.csv("MuestraCredito5000V2.csv",sep = ";",header=T)
# Recodifica las variables como categóricas ordinales
datos$IngresoNeto <- factor(datos$IngresoNeto, ordered = TRUE)
datos$CoefCreditoAvaluo <- factor(datos$CoefCreditoAvaluo, ordered = TRUE)'data.frame': 5000 obs. of 6 variables:
$ MontoCredito : int 14327 111404 21128 15426 10351 27060 243369 16300 18319 107037 ...
$ IngresoNeto : Ord.factor w/ 2 levels "1"<"2": 1 1 1 2 1 1 1 2 2 2 ...
$ CoefCreditoAvaluo: Ord.factor w/ 12 levels "1"<"2"<"3"<"4"<..: 1 1 1 1 1 1 1 1 1 1 ...
$ MontoCuota : Factor w/ 4 levels "Alto","Bajo",..: 4 4 4 4 4 4 4 4 4 4 ...
$ GradoAcademico : Factor w/ 2 levels "Bachiller","Licenciatura": 1 1 1 1 1 1 1 1 1 1 ...
$ BuenPagador : Factor w/ 2 levels "No","Si": 2 2 2 2 2 2 2 2 2 2 ...
Vamos a generar al azar una tabla de testing con 15% de los datos y una tabla de aprendizaje con 85%
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.kknn(BuenPagador~.,data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
modelo
Call:
train.kknn(formula = BuenPagador ~ ., data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
Type of response variable: nominal
Minimal misclassification: 0.05458824
Best kernel: optimal
Best k: 8
Se genera la predicción
[1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
[24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
[93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] Si Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si No Si
[139] Si Si Si No Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si No Si No Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si No Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No
[300] Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[438] Si Si Si Si No No Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si No Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si No
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si No Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si No Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si No Si
Levels: No Si
Se genera la matriz de confusión
prediccion
No Si
No 73 29
Si 8 640
Índices de calidad de la predicción
$`Matriz de Confusión`
prediccion
No Si
No 73 29
Si 8 640
$`Precisión Global`
[1] 0.9506667
$`Error Global`
[1] 0.04933333
$`Precisión por categoría`
No Si
0.7156863 0.9876543
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.knn(BuenPagador~.,data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
modelo
Call:
kknn::train.kknn(formula = BuenPagador ~ ., data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
Type of response variable: nominal
Minimal misclassification: 0.05458824
Best kernel: optimal
Best k: 8
Se genera la predicción
[1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
[24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
[93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] Si Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si No Si
[139] Si Si Si No Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si No Si No Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si No Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No
[300] Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[438] Si Si Si Si No No Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si No Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si No
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si No Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si No Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si No Si
Levels: No Si
Se genera la matriz de confusión
prediction
real No Si
No 73 29
Si 8 640
Índices de calidad de la predicción
Confusion Matrix:
prediction
real No Si
No 73 29
Si 8 640
Overall Accuracy: 0.9507
Overall Error: 0.0493
Category Accuracy:
No Si
0.715686 0.987654
Podemos omitir crear la matriz de confusión
Confusion Matrix:
prediction
real No Si
No 73 29
Si 8 640
Overall Accuracy: 0.9507
Overall Error: 0.0493
Category Accuracy:
No Si
0.715686 0.987654
Utilizando los datos que previamente cargamos
Podemos visualizar la distribución de las variables numéricas y categóricas según la variable a predecir.
Utilizando los mismo datos para prueba (ttesting) y aprendizaje (taprendizaje) que creamos anteriormente.
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.kknn(BuenPagador~CoefCreditoAvaluo+MontoCuota+IngresoNeto+GradoAcademico,
data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
modelo
Call:
train.kknn(formula = BuenPagador ~ CoefCreditoAvaluo + MontoCuota + IngresoNeto + GradoAcademico, data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
Type of response variable: nominal
Minimal misclassification: 0.05529412
Best kernel: optimal
Best k: 19
Se genera la predicción
[1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
[24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
[93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] No Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si Si Si
[139] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si Si Si No No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[300] Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si
[438] Si Si Si Si No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si Si Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si Si Si
Levels: No Si
Se genera la matriz de confusión
prediccion
No Si
No 62 40
Si 5 643
Índices de calidad de la predicción
$`Matriz de Confusión`
prediccion
No Si
No 62 40
Si 5 643
$`Precisión Global`
[1] 0.94
$`Error Global`
[1] 0.06
$`Precisión por categoría`
No Si
0.6078431 0.9922840
Se cargan las librerías
Se genera el modelo
# train.kknn escoje el k usando leave-one-out crossvalidation
modelo <- train.knn(BuenPagador~CoefCreditoAvaluo+MontoCuota+IngresoNeto+GradoAcademico,
data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
modelo
Call:
kknn::train.kknn(formula = BuenPagador ~ CoefCreditoAvaluo + MontoCuota + IngresoNeto + GradoAcademico, data = taprendizaje, kmax = floor(sqrt(nrow(datos))))
Type of response variable: nominal
Minimal misclassification: 0.05529412
Best kernel: optimal
Best k: 19
Se genera la predicción
[1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
[24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
[93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] No Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si Si Si
[139] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si Si Si No No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[300] Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si
[438] Si Si Si Si No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si Si Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si Si Si
Levels: No Si
Se genera la matriz de confusión
prediction
real No Si
No 62 40
Si 5 643
Índices de calidad de la predicción
Confusion Matrix:
prediction
real No Si
No 62 40
Si 5 643
Overall Accuracy: 0.9400
Overall Error: 0.0600
Category Accuracy:
No Si
0.607843 0.992284
Podemos omitir crear la matriz de confusión
Confusion Matrix:
prediction
real No Si
No 62 40
Si 5 643
Overall Accuracy: 0.9400
Overall Error: 0.0600
Category Accuracy:
No Si
0.607843 0.992284